由于我需要为搜狗提交做准备,直接读取xml文件容易搞乱自己的大脑,所以写了一个php文件,将所有的xml链接全部提取到txt文件中。
之前的网站已经有18条xml文件了,每个xml文件中有5000条网站的url,所以我现在需要做的是将所有的url全部存放到txt文件中,接下来的提交到搜狗只需要从txt文件中读取url就行。
说的太复杂我自己都懵,直接开始吧。
代码如下:
<?php
header('Content-Type:text/html;charset=utf-8');
if(!$_GET['xml']){
die("data error");
}else{
$xmldata =file_get_contents($_GET['xml']);
$xmlstring = simplexml_load_string($xmldata,'SimpleXMLElement',LIBXML_NOCDATA);
$value_array = json_decode(json_encode($xmlstring),true);
$url = [];
$fp = fopen('all_siteurl.txt', 'a+');
for ($i =0;$i < count($value_array['url']);$i++){
// echo $value_array['url'][$i]['loc']."<br/>";
fwrite($fp, $value_array['url'][$i]['loc'] . PHP_EOL);
}
// echo '<pre>';
// print_r($url);
fclose($fp);
die('success.');
}
执行方式如下:
访问:/data/txt.php?xml=/sitemap_01.xml
执行的速度很快,5000条也就1s的时间,由于我这个是标号的,所以直接替换后面的01为02则进行下一个xml文件。一直到18结束,这样八九万的数据就全部写入到一个统一的txt文件了,也就是上面代码中的:all_siteurl.txt文件,下一篇文章读取并提交到搜狗也是这个文件。
敬请看我下一篇文章:
[post id="2209"]
好了,这个就到这里了,很简单,代码都是复用性很高的,当做一个小工具使用还是挺不错的。
正文结束